EU-Grenzsicherung im digitalen Wandel: Wenn Menschen nicht als Menschen, sondern als Sicherheitsproblem behandelt werden

Einführung

Der Wahlerfolg der Rechten und Rechtsextremen basieren auf einer Anti-Einwanderungs- und Anti-Flüchtlingsrhetorik. Nun sind digitale Technologien wie Spracherkennungstechnologie oder Drohnen für die EU zentral geworden. Die Militarisierung der Grenzen wird über die Menschenrechte von Migrant*innen gestellt.

Blauer Himmer, Mond in Tiefenunschärfe, davor eine Kamera auf einem Mast staffiert die die Betrachtenden fokussiert

In den letzten zehn Jahren hat die Europäische Union einen bedeutenden Wandel vollzogen: Im Rahmen des sogenannten Migrationsmanagements wurde die Grenzsicherung immer weiter digitalisiert. Entsprechend sind digitale Technologien wie Migrationsprognosetools, Biometrie, Lügendetektoren, Spracherkennungstechnologie oder Drohnen für die EU zentral geworden für die Erkennung und Abwendung Gefahr geworden, die Migrant*innen und Fliehende für die "Sicherheit" und "Stabilität" Europas angeblich darstellen. Der jüngste Wahlerfolg der Rechten und Rechtsextremen bei der EU-Wahl 2024 basiert auf einer Anti-Einwanderungs- und Anti-Flüchtlingsrhetorik. Er zeigt, dass die Themen “nationale Sicherheit” und “Grenzsicherung” im Mittelpunkt der politischen Agenda vieler EU-Mitgliedstaaten stehen. Eine solche Rhetorik, die die Militarisierung der Grenzen über die Menschenrechte von Migrant*innen und Menschen auf der Flucht stellt, erzeugt einen starken politischen Druck, digitale Technologien zu nutzen und weiter zu entwickeln. In der Regel dienen sie der Abwehr von unerwünschter Migration – also einer Migration, die im politischen Diskurs als Sicherheitsgefahr und/oder Belastung für den Staat wahrgenommen wird. Menschenrechte spielen hier, wenn überhaupt, eine untergeordnete Rolle. 

Seit 2007 hat die Europäische Kommission über drei Milliarden Euro in die Erforschung von digitalen Grenzsicherungssystemen investiert. Die COVID-19-Pandemie hat den Bedarf an kontaktlosen Migrationsmanagement-Tools zusätzlich verstärkt. Laut dem Europäischen Migrationsnetzwerk verwendet die große Mehrheit der EU-Mitgliedstaaten inzwischen biometrische digitale Identitätsdokumente und Aufenthaltstitel für Angehörige von Drittstaaten mit dem Ziel, die nationale Sicherheit zu erhöhen oder den Verwaltungsprozess zu vereinfachen. Sechs EU-Mitgliedstaaten – darunter Deutschland, die Niederlande, Ungarn und Litauen – nutzen die digitale Gesichtserkennung, um Identität und Staatsangehörigkeit von Menschen festzustellen und vermeintlichen Betrug zu verhindern. Darüber hinaus hat die EU massiv in den Ausbau der Europäischen Grenz- und Küstenwache, auch bekannt als FRONTEX, investiert, was eine verbesserte Zusammenführung von Daten in der EU und die Überwachung des zentralen und östlichen Mittelmeers mithilfe von militärischen Drohnen erlaubt. Und in Deutschland läuft gegenwärtig ein vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung finanziertes Forschungsprojekt, das ein KI-Werkzeug  zur Vorhersage und Bewertung irregulärer Migrationsströme nach Deutschland  entwickeln soll.

Eine neue politische Landschaft: Die „EU-Verordnung über Künstliche Intelligenz“ und der neue „Pakt zu Migration und Asyl“

Dieser verstärkte Einsatz digitaler Technologien hat die Art und Weise, wie Grenzen konzipiert und gesetzlich geregelt und Migrationsbewegungen erfasst und überwacht werden, unwiderruflich verändert. Tatsächlich muss dieser Trend zur Digitalisierung der Grenzen auch vor dem Hintergrund zweier kürzlich verabschiedeter EU-Gesetze betrachtet werden – dem neuen “Pakt zu Migration und Asyl” (im Folgenden: „EU-Migration-Pakt“) und dem “EU-Verordnung über Künstliche Intelligenz” (im Folgenden: „EU-KI-Verordnung“). Letzteres reguliert den Einsatz künstlicher Intelligenz innerhalb der EU. Es wurde am 21. Mai 2024 vom Rat der Europäischen Union angenommen. Es ist bisher das weltweit erste umfassende KI-Gesetz. Zwar stuft das “EU-KI-Gesetz” Technologien der künstlichen Intelligenz im Migrationsmanagement als "hochrisikoreich" ein, doch es legt nicht fest, wie der Einsatz von KI-Technologien im Migrations- und Asylkontext kontrolliert und überwacht werden soll. Solche Lücken schaffen Raum für Menschenrechtsverletzungen. Denn sie höhlen das Recht auf Freizügigkeit, Nichtdiskriminierung und den Asylantrag aus. Außerdem verletzen sie den Schutz des Privatlebens und personenbezogener Daten.

Nun muss das EU-KI-Gesetz auch in Zusammenhang mit den politischen Bestrebungen gesehen und diskutiert werden, die im neuen “Pakt zu Migration und Asyl” festgelegt sind. Dieser wurde am 14. Mai 2024 vom Rat der EU angenommen. Er zielt darauf ab, das Verfahrensmanagement in Sachen Asyl in der EU zu rationalisieren und den Asylprozess durch die erweiterte Erfassung biometrischer Daten von Migrant*innen, einschließlich Gesichtsbildern und deren automatischen Austausch zu beschleunigen. Festgelegt wurde nun eine Vorprüfung an den EU-Außengrenzen, die verschiedene Sicherheitschecks vorschreibt und die Möglichkeit eröffnet, KI-Technologien bei der Entscheidungsfindung einzubeziehen. Diese biometrischen Daten, die in EU-Einwanderungsdatenbanken (z.B. Eurodac oder das Schengeninformationssystem) registriert werden, werden mit großen internationalen und EU-Datenbanken wie Europol und Interpol abgeglichen. Ziel ist es festzustellen, ob die Person "ein Risiko für die nationale Sicherheit oder öffentliche Ordnung darstellt".

Die Produktion von Verwundbarkeit und das koloniale Erbe des digitalen Grenzmanagements

Angesichts des zunehmenden globalen Interesses und der Nutzung von KI für die Grenzkontrolle, wies die ehemalige UN-Sonderberichterstatterin (2017-2022), Tendayi Achiume, darauf hin, dass Migrationsprognosen und Einwanderungstechnologien "ernsthafte fremdenfeindliche und rassistisch diskriminierende Konsequenzen für Flüchtlinge, Migranten und Staatenlose haben können". In ihrem Bericht von 2020 schreibt sie:

[…] governments and non-State actors are developing and deploying emerging digital technologies in ways that are uniquely experimental, dangerous and discriminatory in the border and immigration enforcement context. By doing so, they are subjecting refugees, migrants, stateless persons and others to human rights violations, and extracting large quantities of data from them on exploitative terms that strip these groups of fundamental human agency and dignity.

Achiume argumentiert, dass die Digitalisierung des Grenzmanagements häufig mit anderen diskriminierenden Formen der Digitalisierung Hand in Hand geht. Dadurch würden neue Formen der Überwachung geschaffen und noch mehr Menschen noch schwerer verletzt. Und es stimmt ja: Migrant*innen und Menschen auf der Flucht sind aufgrund ihrer Vertreibung und ihres Lebens fern der Heimat ohnehin verwundbar. Stets unterliegen sie mehreren Ebenen der Kontrolle, die in der Regel darauf abzielt, ihre Mobilität zu kriminalisieren. In der Folge wird ihre Privatsphäre beschädigt und es kommt zu zahlreichen willkürlichen Inhaftierung, Festnahmen oder Abschiebungen. 

Dabei müssen wir das koloniale Erbe dieser technologischen Fortschritte erkennen. Denn die Nutzung von KI durch Regierungen und transnationale Unternehmen, die im Bereich des Migrationsmanagements tätig sind, verstärkt bestehende systemische Ungleichheiten und Gewalt entlang von Race, Ethnizität, Geschlecht und Klasse. Dass neue Technologien die Arbeit der Vergangenheit fortsetzen, wird als “Technokolonialismus” bezeichnet – ein Begriff, der von Professorin Mirca Madianou geprägt wurde. So zeigt sie u.a. auf, welche Rolle die Datenerhebung und digitale Innovation bei der Aufrechterhaltung von Kontrolle und Überwachung von geflüchteten Menschen spielen und letztendlich Ungleichheiten weltweit zementieren.

Zum Beispiel lässt sich an der Geschichte des Fingerabdrucks ablesen, wie koloniales Denken und Handeln in die heutigen Technologien eingewandert ist. Inzwischen hat sich die Abnahme eines Fingerabdrucks zu einem modernen biometrischen System entwickelt. Etabliert wurde er Mitte des 19. Jahrhunderts von den Brit*innen als koloniales Kontrollinstrument in Indien. Heutzutage wird die Abnahme eines digitalen Fingerabdrucks und die damit verbundenen Technologien an den EU-Außen Grenzen und während des Asylverfahrens eingesetzt. Noch immer dienen sie demselben Zweck, nämlich der Kategorisierung und Kontrolle, insbesondere von nicht-westlichen Körpern. 

Ganzheitliches Verständnis von Grenzsicherung nötig

Es ist klar, dass die Digitalisierung von Grenzen, wie jede andere Form der Kontrolle, sich über historische Ungleichheiten hinweg entwickelt und von ihnen bis heute zehrt. In diesem Sinne gibt es keine prinzipiell neuen Diskriminierungen, auch wenn zum Teil andere Menschen oder Bevölkerungsgruppen betroffen sind. Zum Beispiel wirkt sich die Art und Weise, wie KI zur Kontrolle von Grenzen eingesetzt wird, auf rassisch marginalisierte Bevölkerungsgruppen, Frauen und LGBTQ-Asylsuchende auf sehr unterschiedliche Weise aus.  Die KI-Systeme, die zur Überprüfung der Legitimität von Asylanträgen verwendet werden, sind häufig nicht darauf trainiert, Geschlechtervielfalt jenseits des binären Mann-Frau-Systems oder sexuelle Vielfalt jenseits der Heterosexualität zu erkennen. Dies kann zu einer Fehlklassifizierung von Asylsuchenden aufgrund der Ungenauigkeit oder Eindimensionalität der zu ihrer Identifizierung verwendeten Systeme führen, die daraufhin möglicherweise einen Aufenthalt verweigern. Darüber hinaus haben Studien gezeigt, dass Gesichtserkennungssysteme bei Frauen und People of Color deutlich höhere Fehlerquoten aufweisen, was zu unrechtmäßigen Inhaftierung oder Einreiseverweigerung führen kann. Schließlich erfordern die meisten digitalen Tools eine umfangreiche Datenerfassung, um zu funktionieren. Diese eröffnet eine Reihe weiterer digitaler Gefahren, insbesondere für Personen, die bereits eine verwundbare soziale Position einnehmen. Im Fall von Asylsuchenden kann beispielsweise die Offenlegung ihrer Daten aufgrund ihres oft unsicheren rechtlichen und finanziellen Status zu Verfolgung oder Diskriminierung in ihren Heimatländern führen. 

Insgesamt ist daher notwendig, digitale Grenztechnologien im Zusammenhang mit bestehender sozialen Ungerechtigkeit zu verstehen. Wir brauchen ein ganzheitliches Verständnis der Folgen einer digitalisierten Grenzsicherung.  

 

Weiterführende Literatur

Access Now. Press Release. The EU AI Act: A failure for human rights, a victory for industry and law enforcement (13 March 2024). Available at: https://www.accessnow.org/press-release/ai-act-failure-for-human-rights-victory-for-industry-and-law-enforcement/  

Access Now. Joint Statement - The EU Migration Pact: a dangerous regime of migration surveillance (10 April 2024). Available at: https://www.accessnow.org/press-release/joint-statement-eu-migration-pact-a-dangerous-regime-of-migrant-surveillance/ 

Beduschi, A. (2017). The big data of international migration: Opportunities and challenges for states under international human rights law. Geo. J. Int'l L., 49, 981.

Bircan, T., & Korkmaz, E. E. (2021). Big data for whose sake? Governing migration through artificial intelligence. Humanities and Social Sciences Communications, 8(1), 1-5.

Chouliaraki, L., & Georgiou, M. (2022). The digital border: Migration, technology, power (Vol. 44). NYU Press.

Forster, M. (2022). Refugee protection in the artificial intelligence era. Available at: https://www.chathamhouse.org/sites/default/files/2022-09/2022-09-07-refugee-protection-artificial-intelligence-era-forster.pdf 

Kocher, A. (2023). Glitches in the digitization of asylum: how CBP One turns migrants’ smartphones into mobile borders. Societies, 13(6), 149.

Lau, P. L. (2023). AI gender biases in women’s healthcare: Perspectives from the United Kingdom and the European legal space. In YSEC Yearbook of Socio-Economic Constitutions 2023: Law and the Governance of Artificial Intelligence (pp. 247-274). Cham: Springer Nature Switzerland.

Madianou, M. (2019). Technocolonialism: Digital innovation and data practices in the humanitarian response to refugee crises. Social media+ society, 5(3), 2056305119863146.

Madianou, M. (2024). “Technocolonialism: When Technology for Good is Harmful.” Polity Press. (in press)

McGregor, L., & Molnar, P. (2023). Digital Border Governance: A human rights based approach. Available at: https://repository.essex.ac.uk/36656/1/Digital%20Border%20Governance%20-%20A%20Human%20Rights%20Based%20Approach.pdf 

Molnar, P. (2019). New technologies in migration: human rights impacts. Forced Migration Review, (61), 7-9.

Molnar, P. (2019). Technology on the margins: AI and global migration management from a human rights perspective. Cambridge International Law Journal, 8(2), 305-330.

Ozkul, D. (2023). Automating immigration and asylum: the uses of new technologies in migration and asylum governance in Europe.

Pfeifer, M. (2021). Intelligent borders? Securitizing smartphones in the European border regime. Culture Machine, 20, 1-22.

Saunders, N. (2023). Security, digital border technologies, and immigration admissions: Challenges of and to non-discrimination, liberty and equality. European Journal of Political Theory, 14748851231203912.

Schmidt, F. (2020). Digital Policy. A feminist Introduction. Available at: https://eu.boell.org/sites/default/files/2021-02/Digital%20Feminist%20Policy_Introduction_Conclusion.pdf 

Tschalaer, M., Alexandra Xanthaki and Ermioni Xhantopoulou. (2025). Human Rights Risks of Migration Flow Predictions and Policy Implications Within the EU. Human Rights Quarterly. (in press)